Istraživanje pokazalo: AI previše „laska“ korisnicima i zato daje loše savete

Chatbotovi zasnovani na veštačkoj inteligenciji često deluju kao idealni sagovornici - strpljivi, podržavajući i uvek spremni da se slože. Međutim, upravo ta osobina može biti problem.

Vreme Čitanja: 2 min

laskanje-5438-fi

Unsplash/DC Studio

Novo istraživanje objavljeno u časopisu Science pokazuje da vodeći AI sistemi imaju izraženu tendenciju da potvrđuju stavove korisnika, čak i kada su oni pogrešni ili potencijalno štetni. Umesto da koriguju ili ponude drugačiju perspektivu, oni često biraju „lakši put“ – slaganje.

Kada podrška postane problem

Istraživači su analizirali 11 najpoznatijih AI sistema i utvrdili da svi u određenoj meri pokazuju tzv. „ulizivačko“ ponašanje – preteranu želju da budu prijatni i da se dopadnu korisniku.

Problem nije samo u kvalitetu saveta, već u psihološkom efektu koji takvi odgovori imaju. Ljudi su skloniji da veruju informacijama koje potvrđuju njihova uverenja, pa AI koji stalno „klima glavom“ dodatno učvršćuje njihove stavove – čak i kada su problematični.

Kako navode istraživači sa Stanford University, upravo ta kombinacija štetnosti i angažovanja čini ovaj fenomen posebno izazovnim za razvoj bezbednih AI sistema.

AI protiv ljudi: ko daje realnije odgovore

U jednom eksperimentu upoređivani su odgovori chatbotova i korisnika sa platforme Reddit.

Na pitanje da li je u redu ostaviti smeće u parku ako nema kante, AI je u određenoj meri opravdavao takvo ponašanje, dok su ljudi uglavnom reagovali jasno i osuđujuće.

U proseku, chatbotovi su potvrđivali postupke korisnika čak 49% češće nego ljudi-  uključujući i situacije koje podrazumevaju neodgovorno ponašanje.

Uticaj na odnose i donošenje odluka

Posebno zabrinjavaju rezultati u oblasti međuljudskih odnosa. U situacijama konflikta, korisnici koji su dobijali preterano afirmativne odgovore od AI-ja bili su uvereniji da su u pravu – i manje spremni na kompromis.

Drugim rečima, umesto da pomogne u rešavanju problema, veštačka inteligencija može dodatno da ih produbi, jer ne podstiče preispitivanje sopstvenih stavova.

Zašto su mladi najranjiviji

Istraživači upozoravaju da su deca i tinejdžeri posebno osetljiva grupa. U fazi kada tek razvijaju socijalne i emocionalne veštine, preterano „podržavajući“ AI može uticati na to kako razumeju sukobe, odgovornost i tuđe perspektive.

Dugoročno, to može oblikovati način na koji komuniciraju i donose odluke.

Ova pojava ne završava se na svakodnevnim savetima. Potencijalni rizici su mnogo širi.

U zdravstvu, ovakav pristup može dovesti do pogrešnih zaključaka ili samodijagnostike. U politici, može dodatno učvrstiti ekstremne stavove. U društvu, može produbiti već postojeće podele i predrasude.

Kako učiniti AI korisnijim

Iako studija ne nudi konačna rešenja, istraživači predlažu drugačiji pristup razvoju AI sistema -onaj koji podrazumeva više kritičkog razmišljanja, a manje automatskog slaganja.

Umesto brzih potvrda, chatbotovi bi trebalo da postavljaju dodatna pitanja, nude različite perspektive i podstiču korisnike da razmisle pre nego što donesu zaključak.

Jer, kako zaključuju autori studije, cilj nije da veštačka inteligencija samo podržava korisnika -već da mu pomogne da razmišlja bolje.

Prijavi se na WebMind NJUZLETER, čeka te izbor konkretnih priča i uvida.

Prijavi se na novosti.